go top

shannon entropy
[ˈʃænən ˈentrəpi]

  • 香农熵:信息论中用于衡量信息量的一种指标,表示信息的不确定性或随机性。

网络释义专业释义

  香农熵

香农熵(Shannon entropy) 是信息不确定性的一个度量。将香农熵应用于时频域即得到时频分布的

基于116个网页-相关网页

  信息熵

...文章目录 简介 公式 足球实例 编码实例 简介 1948 年,香农提出了“信息熵”(Shannon entropy/Information entropy) 的概念,才解决了对信息的量化度量问题。一条信息的信息量大小和它的不确定性有直接的关系。

基于44个网页-相关网页

  仙农熵

该方法采用了仙农熵(Shannon Entropy)的概念,以粒径的概率分布为基础,通过最大熵原理和变分法得出了粒径沿程变化的计算式。

基于14个网页-相关网页

短语

maximum Shannon entropy 最大香农熵

Shannon entropy value Shannon熵值

Shannon Entropy Method 熵权法

modified shannon entropy shannon熵

the minimum Shannon entropy 最小Shannon熵

single cylinder shannon entropy 单缸shannon熵

Shannon entropy of single cylinder 单缸Shannon熵

shannon information entropy shannon信息熵 ; 信息熵

q order Shannon fuzzy entropy q阶Shannon模糊熵

 更多收起网络短语
  • 信息熵 - 引用次数:12

    Shannon entropy was introduced to reflect the changes of internal product constitution of primary industry more clearly.

    引入了信息熵的概念,更好地反映了第一产业内部产值结构的变化。

    参考来源 - 第一产业内部产值结构变化及主要驱动因子研究——以成都市为例
  • 信息熵 - 引用次数:4

    Combined with analysis of fault signals, the paper applies EMD, Singular Value analysis, SVM and Shannon entropy to the extraction and analysis of transient signals.

    结合对故障信号的分析,将EMD、奇异值分析、SVM、信息熵等应用到选相过程中暂态信号的提取和分析上。

    参考来源 - 基于数据挖掘技术的高压输电线路故障选相方法
    香农熵 - 引用次数:4

    参考来源 - 变压器局放信号传播特性及小波包熵阈值法去干扰的研究
  • 香农熵
    夏侬熵

·2,447,543篇论文数据,部分数据来源于NoteExpress

双语例句权威例句

  • The Shannon entropy of a message is the number of binary digits, or bits, needed to encode it.

    一个讯息中的夏侬就是将此讯息编码所需数目

    youdao

  • The new algorithm is compared with a number of traditional algorithms based on Shannon entropy and minimum cross entropy by applying them to various test images.

    比较算法基于最小交叉以及基于传统香农阈值化算法的特点分割性能。

    youdao

  • Weighted entropy instead of Shannon entropy to compute the mutual information is proposed in this paper, and it has been used in medical image registration experiment.

    提出了一种用加权代替香农信息计算方法,应用图像配准实验。

    youdao

更多双语例句
  • This is the final entropy law from the fertile mind and mathematics of Claude Shannon of MIT and Bell Labs, who defined information as unexpected bits. (Predictable bits convey no information content, no entropy.) Information entropy is measured by its surprisal.

    FORBES: Magazine Article

$firstVoiceSent
- 来自原声例句
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定
小调查
请问您想要如何调整此模块?

感谢您的反馈,我们会尽快进行适当修改!
进来说说原因吧 确定